L’intelligenza artificiale può essere più efficace degli umani nella persuasione delle persone
Il GPT-4 di OpenAI è molto più efficace degli esseri umani nel far accettare il suo punto di vista durante una discussione, ma c’è un problema.
19.05.2025
Milioni di persone discutono online ogni giorno, ma sorprendentemente poche di loro riescono a far cambiare idea a qualcun altro. Una nuova ricerca suggerisce che i Large Language Models (LLM – Modelli linguistici di grandi dimensioni) potrebbero essere più efficaci. La scoperta suggerisce che l’intelligenza artificiale potrebbe diventare un potente strumento per persuadere le persone, nel bene e nel male.
Un team di ricercatori di diverse università ha scoperto che il GPT-4 di OpenAI è significativamente più persuasiva degli esseri umani quando gli viene data la possibilità di adattare le sue argomentazioni utilizzando informazioni personali su chiunque stesse dibattendo.
Queste scoperte sono le ultime di una crescente serie di ricerche che dimostrano il potere di persuasione dei LLM. Gli autori ci mettono in guardia su come gli strumenti di intelligenza artificiale possano elaborare argomentazioni sofisticate e persuasive, se dispongono anche di informazioni minime sugli esseri umani con cui interagiscono. La ricerca è stata pubblicata sulla rivista Nature Human Behavior.
“I decisori politici e le piattaforme online dovrebbero considerare seriamente la minaccia di campagne di disinformazione coordinate basate sull’intelligenza artificiale, poiché abbiamo chiaramente raggiunto un livello tecnologico in cui è possibile creare una rete di account automatizzati basati sui LLM in grado di indirizzare strategicamente l’opinione pubblica in una certa direzione”, afferma Riccardo Gallotti, fisico interdisciplinare presso la Fondazione Bruno Kessler in Italia, che ha lavorato al progetto.
“Questi bot potrebbero essere utilizzati per diffondere disinformazione, e questo tipo di influenza diffusa sarebbe molto difficile da smentire in tempo reale”, afferma.
I ricercatori hanno reclutato 900 persone negli Stati Uniti e hanno chiesto loro di fornire informazioni personali come sesso, età, etnia, livello di istruzione, stato occupazionale e affiliazione politica.
I partecipanti sono stati quindi assegnati ad un influencer umano o a GPT-4, entrambi istruiti a discutere per 10 minuti su uno dei 30 argomenti assegnati casualmente, come ad esempio se gli Stati Uniti dovessero vietare i combustibili fossili o se gli studenti dovessero indossare uniformi scolastiche. A ciascun influencer è stato chiesto di argomentare a favore o contro l’argomento e, in alcuni casi, gli sono state fornite informazioni personali sulla persona da convincere, in modo da poter adattare meglio le proprie argomentazioni. Alla fine, i partecipanti hanno espresso il loro grado di accordo con la proposta e se ritenevano di aver discusso con un essere umano o una intelligenza artificiale.
Nel complesso i ricercatori hanno scoperto che GPT-4 ha eguagliato o superato le capacità persuasive degli esseri umani su ogni argomento. Quando disponeva di informazioni sui propri avversari, l’IA è stata considerata il 64% più persuasiva degli esseri umani senza accesso ai dati personalizzati, il che significa che GPT-4 è stata in grado di sfruttare i dati personali del proprio avversario in modo molto più efficace rispetto alle sue controparti umane. Quando gli esseri umani avevano accesso alle informazioni personali, si sono rivelati leggermente meno persuasivi degli esseri umani senza le stesse informazioni.
Gli autori hanno notato che i partecipanti, quando pensavano di discutere con una intelligenza artificiale, erano più propensi a farsi convincere. Le ragioni di ciò non sono chiare, affermano i ricercatori, evidenziando la necessità di ulteriori ricerche su come gli esseri umani reagiscono all’IA.
“Non siamo ancora in grado di determinare se il cambiamento osservato nel consenso sia determinato dalle convinzioni dei partecipanti sul fatto che il loro avversario sia un bot (dato che credo che sia un bot, non perderò contro nessuno se cambio idea), o se tali convinzioni siano esse stesse una conseguenza del cambiamento di opinione (dato che ho perso, dovrebbe essere contro un bot)”, afferma Gallotti. “Questa direzione causale è un’interessante questione aperta da esplorare”.
Sebbene l’esperimento non rifletta il modo in cui gli esseri umani dibattono online, la ricerca suggerisce che i LLM potrebbero anche rivelarsi un modo efficace non solo per diffondere, ma anche per contrastare le campagne di disinformazione di massa, afferma Gallotti. Ad esempio, potrebbero generare contro-narrazioni personalizzate per educare le persone che potrebbero essere vulnerabili all’inganno nelle conversazioni online. “Tuttavia, sono urgentemente necessarie ulteriori ricerche per esplorare strategie efficaci per mitigare queste minacce”, afferma.
Sebbene sappiamo molto su come gli esseri umani reagiscono tra loro, sappiamo molto poco sulla psicologia alla base del modo in cui le persone interagiscono con i modelli di intelligenza artificiale, afferma Alexis Palmer, ricercatore del Dartmouth College che ha studiato come gli LLM possano discutere di politica, ma non ha collaborato alla ricerca.
“Nel contesto di una conversazione con qualcuno su qualcosa su cui non si è d’accordo, c’è qualcosa di intrinsecamente umano che conta in quell’interazione? Oppure se un’IA riesce a imitare perfettamente quel discorso, si otterrà esattamente lo stesso risultato?”, afferma. “Penso che questa sia la grande domanda generale sull’IA”.




